Mélytanulás: mítosz és valóság

Babonás félelmek helyett széles látókörrel, az újításokra nyitottan érdemes a mesterséges intelligencia felé fordulnunk. Több okunk van rá ugyanis, hogy az emberi butaságtól tartsunk, mint a képességeinket túlszárnyaló általános gépi intelligencia megjelenésétől. Sameer Farooquival, a Google big datával foglalkozó stratégiai felhőmérnökével beszélgettünk.

A mesterséges intelligencia (AI) annyira veszélyes, hogy az emberiség egyenesen a fennmaradását teszi kockára kifejlesztésével. Ez talán a legelterjedtebb tévhit a technológiával kapcsolatban, de alaptalan – mondta Sameer Farooqui a Prezi és az IBM Budapest Lab szervezésében októberben Budapesten megrendezett Crunch 2017 adatmérnöki és analitikai konferencián tartott előadásában, amelyben a mélytanulást (deep learning) övező médiafelhajtás és a valós tények közötti ellentétekre világított rá.

Különböző felmérések szerint az ember szellemi képességeivel vetekedő általános gépi intelligencia megjelenését a terület szakértői valamikor 2065 és 2080 között várják, de a fő veszélyforrást azt követően sem maga a technológia jelenti majd. Mint annyi más találmány eddigi történetéből megtanulhattuk, a mesterséges intelligencia esetében is minden azon múlik majd, hogy az ember mire használja – mondta Sameer Farooqui. Az ebbő fakadó kockázatokat ezért a legjobban úgy csökkenthetjük, hogy mindenkinek hozzáférést adunk az AI-hez, és olyan eszközöket, módszereket fejlesztünk ki, amelyekkel észlelni tudjuk a vadon tenyésző, fenyegetést jelentő mesterséges intelligenciát, ha az megjelenne környezetünkben.

Kreatív AI és a hamis hírek
Sameer Farooqui több, elsősorban szakmai körökben terjedő mítoszt is cáfolt előadásában. Mint mondta, a mélytanuláshoz használt, több modellre épülő architektúrák, a több rétegből felépülő neurális hálózatok ma már ugyanolyan nagy feldolgozási teljesítményre képesek, mint a náluk sokkal egyszerűbb, felügyelt gépi tanulás egyetlen probléma megoldására felkészített modelljei.

Nem igaz napjainkban már az sem, hogy feltétlenül óriási adattömeg szükséges a mélytanuláshoz. A neurális hálózatok már tanított rétegeit ugyanis újra lehet hasznosítani, és az úgynevezett ellenőrizetlen előtanulás, vagy például az egy lépésben történő tanítás (one shot learning) módszereivel is növelhető a folyamat hatékonysága és pontossága kisebb adathalmazokon.

Megdőlt az a feltevés is, hogy kreativitásra csak az emberi intelligencia képes. A neurális hálózatok egyik típusa, a Generative Adversarial Network (GAN) például két, egymással vetélkedő hálózatot (jellemzően egy konvolúciós és egy dekonvolúciós hálózatot) használ az információk “ütköztetéséhez”, hogy az emberi agyhoz hasonlóan – amelyben az új ötletek meglévő ismeretek, korábbi gondolatok hirtelen találkozásából születnek – kreatív tartalmat hozzon létre. Emberi szemmel nézve hitelesnek tűnő fényképek, 3D-s

formatervek is létrehozhatók például ezzel a javaslatokat felvető, majd azokat nyomban kiértékelő technológiával, online videófolyamok elemezhetők, vagy olyan alkotások készíthetők, amilyeneket a Google fotókat álomszerűvé változtató DeepDream mélytanuló hálózatától láthattunk 2015-ben.

Ian Goodfellow, a Google Brain kutatója – aki munkájával a 2014-ben bemutatott GAN hálózatok kifejlesztéséhez is nagyban hozzájárult – rámutatott, hogy azok egy kis képzaj hozzáadásával könnyen megzavarhatók. Ha belegondolunk, hogy az önvezető autók kameráikon keresztül hasonló technológiával látják környezetüket, a közlekedés többi résztevőjét és az eléjük kerülő akadályokat, akkor könnyű elképzelni, hogy ez mekkora veszélyforrás lehet.

Még nagyobb potenciális fenyegetést jelent azonban, hogy a GAN hálózatokkal valódinak tűnő, hangos videófelvételek készíthetők meg sem történt eseményekről, mondta Sameer Farooqui. Példaként Mario Klingemann zavarba ejtő alkotását (Alternative Face v1.1) említette az Economist cikke alapján. A német művész Kellyanne Conway, Donald Trump tanácsadójának szavait – amelyek az NBC által készített emlékezetes tévéinterjúban hangzottak el, és az elnöki eskütételre összesereglett tömeg mérete kapcsán “alternatív tényekre” hivatkoztak – Francoise Hardy szájába adta. Ehhez a francia énekesnő YouTube-on elérhető, több mint 50 évvel ezelőtt készült zeneklipjeit töltötte a laptopján futó GAN hálózatba, amely pár nap alatt társította a kép- és a hanganyagot, majd legenerálta a döbbenetes videót.

Szakemberhiány vs. szűkmarkú munkáltatók
Sok vállalatvezető azért legyint lemondóan, ha a mesterséges intelligencia alkalmazási területeiről hall, mert azt költséges technológiának tartja, amelynek használatát csak a legnagyobb cégek engedhetik meg maguknak. Az utóbbi években azonban az AI költséghatékonysága is gyorsuló ütemben javul. Sameer Farooqui ezt a Google DeepFace példájával támasztotta alá, amelyet négy mérnök épített 2014-ben, és 97 százalékos pontosságot ért el az arcfelismerésben. Csupán három évvel korábban az FBI hasonló célú rendszerén, amely végül 87 százalékos pontosságúnak bizonyult, még tizenhárom vállalat dolgozott.

Más döntéshozók a mesterséges intelligenciához értő szakemberek munkaerő-piaci hiányát látva gondolják úgy, hogy cégüknek úgysem jut belőlük, ezért AI-megoldások bevezetésére, használatára aligha lesz esélyük. Sameer Farooqui szerint azonban nem szakemberekből, hanem elismerésből van hiány: ha a vállalatok a bérezés tekintetében többre értékelnék szoftvermérnökeiket, mint alelnökeiket, akkor tapasztalnák, hogy nem is olyan nehéz felkészült és tehetséges munkaerőt találniuk.

Persze az AI-beruházások előkészítésekor a vállalatvezetők számára fejtörést okozhat az is, hogy az alapul szolgáló technológiák – amelyek jó része nyílt forráskódú – gyorsan fejlődnek, keményen versenyeznek, így akár pár év leforgása alatt háttérbe szoríthatják egymást, miközben a döntéshozók lehetőleg hamar megtérülő, értékálló fejlesztésekre törekednek, vetettük fel Sameer Farooquinak előadását követően.

– Nagy erőforrásokat mozgósított az utóbbi években több szállító, közöttük a Google, az Amazon és az Apple is a mesterséges intelligenciára épülő digitális asszisztensek fejlesztésére, amelyek az üzleti alkalmazások esetében is egyre fontosabb kezelőfelületté válnak a továbbiakban, vállalatvezetőként ezért közelebbről is megvizsgálnám, hogy miként lehetne őket a cég weboldalával, mobilalkalmazásaiba integrálni – mondta Sameer Farooqui. – AI-beruházásaikhoz a vállalatok számos keretrendszer és programnyelv közül választhatnak, érdemes ezért tanulmányozni a GitHub weboldalán, hogy mit mondanak róluk a fejlesztők, melyiknek hány csillagot adnak, és miért. A neurális hálózatoknak is több típusa, architektúrája ismert; annak eldöntéséhez hogy az adott feladatra, a kijelölt

üzleti cél eléréséhez melyik lenne a legjobb választás, a vállalatoknak a mélytanuláshoz értő adatkutatókat érdemes alkalmazniuk, és lehetővé tenniük, hogy munkaidejük egy részét, akár 25-30 százalékát kísérletezéssel, a különböző algoritmusok kipróbálásával, és ismereteik bővítésével töltsék; konferenciákon, workshopokon, tanfolyamokon vegyenek részt, mert az üzleti törekvések ismeretében így tudnak majd előállni a megfelelő, az igényeket hosszabb távon is kiszolgáló megoldással.

Két-három éves AI-tapasztalattal bíró adatkutatóból valóban nincs sok a munkaerőpiacon, ezért sokba kerül az ilyen szakemberek alkalmazása. Célszerűbb, ha a vállalat matematikában is erős szoftvermérnököket toboroz, akik azután az innovációra nyitott vezetés támogatásával továbbképzik magukat, kiépítik a mesterségesintelligencia-fejlesztésekhez szükséges kompetenciákat, mondta Sameer Farooqui, aki előadása végén a deep learning iránt érdeklődő hallgatóságát is az önképzésre, a folyamatos továbbtanulásra bátorította, mert ezen a feljövő területen sem adják a tudást készen.

Forrás: www.computerworld.hu

Kapcsolódó hozzászólások

Leave a Comment